{"en":"AI-agenter får langtidshukommelse - slik fungerer RAD","nb":"AI-agenter får langtidshukommelse - slik fungerer RAD"}
\\n\\n
About OpenInfo.no:<\/strong> We run DAVN.ai<\/p>","nb":"# AI-agenter får langtidshukommelse - slik fungerer RAD\n\n**ChatGPT glemmer deg mellom samtaler. Men neste generasjon AI-agenter husker alt - takket være en ny standard kalt RAD (Retrieval Augmented Doing).**\n\nI dag er de fleste AI-assistenter som fisk - de har 3 sekunders hukommelse. Hver gang du starter en ny samtale, begynner du på nytt. Men det er i ferd med å endre seg.\n\n## Fra RAG til RAD\n\nDu har kanskje hørt om **RAG (Retrieval Augmented Generation)** - teknikken som lar AI-modeller hente ekstern kunnskap før de svarer. RAG gir AI tilgang til fakta og dokumenter.\n\nNå introduseres **RAD (Retrieval Augmented Doing)** - en standard for hvordan AI-agenter skal huske hva de *gjør*, ikke bare hva de *vet*.\n\n## Hva er forskjellen?\n\n- **RAG:** \"Hva vet jeg om dette emnet?\" (kunnskapsbase)\n- **RAD:** \"Hva gjorde jeg sist gang jeg jobbet med dette?\" (erfaringsminne)\n\nTenk på det som forskjellen mellom å lese en bok om sykkel (RAG) og å huske hvordan *du* lærte å sykle (RAD).\n\n## Slik fungerer det\n\nEt populært eksempel er `claude-mem` - et plugin som har eksplodert til 27 000+ stjerner på GitHub på kort tid.\n\nNår en AI-agent jobber, fanger claude-mem automatisk:\n- Hvilke verktøy agenten brukte\n- Hvilke filer som ble endret\n- Hvilke beslutninger som ble tatt\n- Hvilke løsninger som fungerte (og ikke fungerte)\n\nDette komprimeres med AI til semantiske sammendrag og gjøres tilgjengelig i fremtidige sesjoner.\n\n## Eksempel fra virkeligheten\n\n**Uten RAD:**\n\n*Bruker:* \"Kan du fikse den feilen vi jobbet med i går?\"\n\n*AI:* \"Hvilken feil? Kan du beskrive den?\"\n\n**Med RAD:**\n\n*Bruker:* \"Kan du fikse den feilen vi jobbet med i går?\"\n\n*AI:* \"Ja, authentification-feilen i login.js linje 47. Jeg prøvde async\/await-løsningen som ikke fungerte. Skal jeg teste callback-tilnærmingen i stedet?\"\n\n## Hvorfor dette betyr noe\n\n1. **Produktivitet:** Slutt å gjenta deg selv for AI-en\n2. **Kontinuitet:** Agenter kan lære av tidligere feil\n3. **Personalisering:** AI-en husker din arbeidsflyt og preferanser\n4. **Teamarbeid:** Flere agenter kan dele erfaringer\n\n## Er det en standard?\n\nEnnå ikke offisielt, men momentumet er der:\n- 27 000+ GitHub-stjerner på få måneder\n- Flere agent-plattformer implementerer lignende systemer\n- Open source-tilnærming gjør det tilgjengelig for alle\n\n## Personvern-spørsmålet\n\nSelvsagt reiser dette spørsmål:\n- Hvor lagres disse minnene?\n- Hvem har tilgang?\n- Kan de slettes?\n\nHeldigvis er claude-mem og lignende løsninger designet for lokal lagring - minnene lever på *din* maskin, ikke i skyen.\n\n## Hva skjer fremover?\n\nInnen utgangen av 2026 vil sannsynligvis de fleste AI-agenter ha en form for langtidshukommelse. Spørsmålet er ikke lenger *om* AI husker, men *hvordan* vi standardiserer og sikrer denne hukommelsen.\n\nRAG ga AI kunnskap. RAD gir AI erfaring. Sammen skaper de noe som begynner å ligne kontinuitet.\n\n## Konklusjon\n\nVi går fra \"å snakke med AI\" til \"å samarbeide med AI-kolleger som faktisk husker hva dere jobbet med i går\". Det er en fundamental forskjell.\n\nOg forskjellen heter RAD.\n\n---\n\n*Kilder: GitHub thedotmack\/claude-mem, OpenClaw agent memory patterns, RAD standardization discussions*\n\n*Publisert som del av Nettsak.no's daglige AI-forskningsoppsummering.*\\n\\n About OpenInfo.no:<\/strong> We run DAVN.ai<\/p>"}
\\n\\n